首页> 外文OA文献 >What Do Recurrent Neural Network Grammars Learn About Syntax?
【2h】

What Do Recurrent Neural Network Grammars Learn About Syntax?

机译:回归神经网络语法学习语法的内容是什么?

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Recurrent neural network grammars (RNNG) are a recently proposedprobabilistic generative modeling family for natural language. They showstate-of-the-art language modeling and parsing performance. We investigate whatinformation they learn, from a linguistic perspective, through variousablations to the model and the data, and by augmenting the model with anattention mechanism (GA-RNNG) to enable closer inspection. We find thatexplicit modeling of composition is crucial for achieving the best performance.Through the attention mechanism, we find that headedness plays a central rolein phrasal representation (with the model's latent attention largely agreeingwith predictions made by hand-crafted head rules, albeit with some importantdifferences). By training grammars without nonterminal labels, we find thatphrasal representations depend minimally on nonterminals, providing support forthe endocentricity hypothesis.
机译:递归神经网络语法(RNNG)是最近针对自然语言提出的概率生成建模族。它们展示了最新的语言建模和解析性能。我们从语言学的角度,通过对模型和数据的各种消融,以及通过使用注意机制(GA-RNNG)扩展模型以进行更仔细的检查,来研究他们所学到的信息。我们发现,清晰的构图建模对于实现最佳性能至关重要。通过注意力机制,我们发现头绪在短语表示中起着核心作用(尽管潜在的一些重要区别,模型的潜在注意力在很大程度上与手工头规则的预测相符) )。通过训练没有非终结标记的语法,我们发现短语表示最小限度地依赖非终结,为内心假说提供了支持。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号